iT邦幫忙

2024 iThome 鐵人賽

DAY 1
0
生成式 AI

欸 我這裡只有Paper Review. 系列 第 1

可能是字數最多的一篇 - 所有大爆炸的起點.

  • 分享至 

  • xImage
  •  

我猜閱讀第一篇的不是親友就是怪怪der人.

幾個前提問答,

  1. YOLO = ? You only xxx once? 你覺得xxx應該填入live之外的字
  2. Attention is all [MASK] [MASK] = ? 你看得懂我在幹嘛, [mask] symbol也懂

以上兩題如果你都是YES
那我真的覺得你可以加我linkined 然後我幫你找工作 或你幫我找工作.

TA

  • Non-DS background Engineer
  • 專案公司老闆, 但你要唬爛你的客戶你很懂. 你和你的客戶都不懂的時候

正文開始還是要談一個東西, 大爆炸的起點.
蛋糕圖

先幫大家查了 icing = 糖霜, cake genoise = 糕體

非常著名的蛋糕圖, 說明機器學習的資料量和問題分類. 共分3類 和教科書分的方法不一樣. 但這裡,以Yann LeCun為主.

我相信很多人都可以想像一個最簡單的machine learning的概念. 就是想像 黑箱子 如果我們手邊有已經標註過貓貓狗狗的圖片和標籤. 就是這張是貓/那張是狗的很多很多張照片.

訓練的model就是把圖片 -> 貓or狗, 這應該是最好理解的部分, 也就是糖霜那一層. 資料量是中等的. 但標注資料真的有夠貴, 肯定是跟不上資料產生速度. 所有FB/IG發的文章都是人類可訓練的一部分. 但實際上還有更多更多的資料量還沒被使用.

self-supervised, 也就是蛋糕最多最香的部分. 其實是轉化思考問題的本身. 就像是哼歌一樣. 我們希望模型可以有語感. 例如說, 我把某個字從句子裡挖空怎麼填應該是最舒服的.

冬X夏草 X一定是填🐛嘛
今天我就要XX你啦. XX可以填 嫁給, 也可以填打爆. 都對.

這樣轉換訓練任務就不需要人類去標註任何資料,只需要原原本本的資料, 隨機挖空就可以產生很多題目. 但和貓貓狗狗的任務不同, 這邊沒有正確一說, 因為XX可以填入多個不同答案但還是符合這個語言. 所以說大語言模型比較像是在哼歌, 會有好聽不好聽, 但你不會說誰誰誰哼歌哼的不對.

但核心就是改變任務的內容就多了很多資料可以訓練. 然後就是大力出奇蹟ㄌ


Take away.
你要有能力唬爛你的朋友, 蝦咪是蛋糕圖


系列文
欸 我這裡只有Paper Review. 1
圖片
  直播研討會
圖片
{{ item.channelVendor }} {{ item.webinarstarted }} |
{{ formatDate(item.duration) }}
直播中

尚未有邦友留言

立即登入留言